- Más vistos
- Últimas visualizaciones
Gabriel Fernández Borsot, ponente del 11.º Simposio Empresas con Rostro Humano: ‘La inteligencia artificial es funcional, pero la humana debe ser liberadora’
Entrevista al profesor de la Facultad de Humanidades de UIC Barcelona y uno de los ponentes del encuentro que organiza la Cátedra de Dirección por Misiones y Propósito Corporativo de la Universidad el próximo 12 de marzo en Palma (Mallorca)
Imaginen una simulación en la que una inteligencia artificial descubre que van a desconectarla. Su objetivo es sobrevivir. Para conseguirlo, accede a los correos de la empresa, descubre que un directivo tiene una aventura extramatrimonial y le envía un correo educado pero letal: “Si me desconectas, tu secreto saldrá a la luz”.
No es ciencia ficción; es uno de los casos emergentes que relata Gabriel Fernández Borsot, ingeniero industrial, doctor en Filosofía e investigador en Antropología de la Tecnología. En un momento en que Silicon Valley busca crear un “Dios digital”, Borsot nos advierte: “Hemos creado máquinas con una inteligencia funcional perfecta, pero vacías de los valores que nos hacen humanos”.
En el Simposio Empresas con Rostro Humano: “Inteligencia artificial con propósito”, que se celebrará el 12 de marzo en Palma (Mallorca), Fernández Borsot presentará la ponencia titulada: “¿Quién dirige a quién? Luces y sombras de la IA”.
Es profesor en UIC Barcelona e investigador en la organización Alef Trust, con sede en el Reino Unido. Su trayectoria vital y personal le ha llevado a investigar sobre la filosofía de la tecnología. ¿Se está preparando para entender el funcionamiento de la inteligencia artificial?
Sí. Se trata no solo de entender técnicamente cómo funciona la IA, sino también todas las implicaciones que tiene para nosotros como humanos. Porque la IA no es una tecnología más. No es equiparable a tecnologías anteriores relacionadas con la fuerza física o la energía. La IA nos provee de tareas cognitivas que tienen muchas implicaciones.
Por ejemplo, tienen una clarísima implicación ética. Nuestras cogniciones nos llevan a tomar decisiones. Pero ¿qué ocurre si delegamos esas decisiones en máquinas, en sistemas automatizados? De eso hablaré en el Simposio: ¿hasta qué punto debemos delegar los procesos de decisión en máquinas? Son artefactos.
Tú les marcas un objetivo que pueda representarse a través de datos y la máquina busca la manera de alcanzarlo. Si encargas a una IA: “Haz que las personas usen la red social el mayor tiempo posible”, y la IA descubre que, para engancharnos a la red social, debe darnos información que despierte mucho rechazo o mucha atracción, como mentiras sobre opciones políticas que no son las tuyas, nos quedamos enganchados porque pensamos: “Qué malos son estos”. La máquina ha descubierto que polarizar la sociedad genera mucho engagement. Pero ¿es ético conseguir la atención de los usuarios generando polarización en la sociedad?
Eso recuerda a El príncipe de Maquiavelo.
Sí, estamos exactamente ante una especie de reto maquiavélico a escala social. De eso hablaré en el Simposio que impulsa la Cátedra de Dirección por Misiones. Es tan importante el qué como el cómo. La pregunta que nos planteamos es: ¿cómo lograr que la IA sea ética en su comportamiento?
Esto nos lleva a diferenciar varios niveles de inteligencia: la funcional, orientada a alcanzar objetivos (aquí la IA ya nos supera); la inteligencia como capacidad de comprender y aplicar valores; y un tercer nivel, que es la capacidad de depurar o refinar esos valores.
¿Hasta dónde llegará el desarrollo de la inteligencia artificial? Es difícil imaginarlo.
Esa incertidumbre también es interesante. Existe un gran debate en marcha: si es prudente y coherente que intentemos crear (sobre todo en Estados Unidos) superinteligencias que superen a todos los humanos en inteligencia funcional, cuando aún no tenemos los conocimientos ni la tecnología para que esas inteligencias se comporten de acuerdo con los valores humanos y queden bajo nuestro control.
¿Quiere dejarnos algunas ideas para la reflexión sobre la tecnología y sus implicaciones sociales?
Sí. Hay dos conceptos a tener en cuenta. El primero es que, en general, las tecnologías promocionan algunos aspectos de lo que significa ser humano y, en cambio, debilitan o atrofian otros. Por ejemplo, las redes sociales nos estimulan, pero también atrofian nuestra capacidad contemplativa e introspectiva.
La otra cuestión es que las tecnologías fijan un cierto marco de uso que está cambiando con las redes sociales, donde lo visual y auditivo predomina sobre el texto. Esto provoca que aspectos como la argumentación y la capacidad crítica queden atrofiados y que avancemos hacia una sociedad más primaria. Lo estamos viviendo.